Интересная штука появилась на сайте проекта VMware Labs - средство миграции VCS to VCVA Converter. Эта штука позволяет преобразовать имеющийся у вас сервер VMware vCenter под управлением ОС Windows с внешней БД Microsoft SQL Server в виртуальный модуль (VIrtual Appliance) vCetner Server Appliance на базе Linux со встроенной базой данных vPostgres, который также должен быть у вас в наличии при миграции.
С помощью утилиты (которая также представляет собой виртуальный модуль) можно перенести саму БД, а также роли, пермиссии, привилегии, сертификаты и службу Inventory Service. Результирующий виртуальный модуль vCSA должен иметь тот же IP-адрес, что исходный сервер VMware vCenter, но не должен быть включен при миграции.
Системные требования VCS to VCVA Converter:
vCenter Server под Windows - для vSphere 5.5 или более поздней версии.
Windows vCenter Server и vCenter Server Appliance должны быть одной версии (например, vCenter Server Windows 5.5 u1 -> VCSA 5.5 u1).
vCenter Server Appliance должен иметь как минимум столько же vCPU и памяти, сколько и исходный хост vCenter Server.
Компоненты vCenter Components (Inventory Service, vSphere Web Client и VMware Single Sign On) должны быть на том же хосте, что и vCenter Server.
Должен быть внешний Microsoft SQL Server 2008 R2 (или более поздний) с vCenter Database (VCDB).
vSphere Web Client Plugins должны быть зарегистрированы под пользователем Active Directory.
Службы VMware Single Sign On (пользователи и группы) на данный момент не переносятся (нужно заводить заново).
Утилита (Migration Appliance) должна иметь возможность взаимодействия с vCenter, его БД и виртуальным модулем vCSA. Следующие порты должны быть открыты на vCenter Server и на VCSA:
22 (ssh)
443 (https)
445 (SMB)
Ограничения утилиты:
Microsoft SQL Server и vCenter Server должны быть на разных хостах (встроенная БД не пойдет).
Microsoft SQL Express Database не поддерживается версией 0.9 утилиты.
Windows Local Users и Groups не мигрируются версией 0.9 утилиты.
vCenter Alarm action scripts также не переносятся в версии 0.9.
Миграция потребует некоторого прерывания в работе vCenter Server.
Конфигурация Linked Mode не мигрируется (надо делать все в ручную).
Сторонние плагины для Web Client (например, VMware Update Manager или NSX) также не будут перенесены.
Загрузить виртуальный модуль VCS to VCVA Converter можно по этой ссылке.
Мы много пишем про новые возможности платформы виртуализации VMware vSphere 6, релиз которой должен состояться уже в ближайшее время. Напомним наши последние посты:
Но и компания VMware тоже старается от нас не отставать. Например, недавно она объявила о доступности вебинара "Новинки vSphere 6" на русском языке, который можно в любое время посмотреть по запросу.
Многовато болтовни в начале, но для тех, кто готов слушать о VMware от VMware - почему бы и нет.
Мы уже немало писали про технологию Transparent Page Sharing (TPS) в VMware vSphere, которая позволяет дедуплицировать страницы оперативной памяти на хост-сервере ESXi при недостатке физической памяти для виртуальных машин. Как мы уже писали тут и тут, в VMware vSphere 5.5 Update 3 и более поздних версиях технология TPS отключена (при дедупликации страниц между машинами), чтобы не нагружать хост понапрасну, поскольку в современных ОС используются большие страницы памяти (Large Memory Pages), вероятность дедупликации которых мала. В то же время, технологию TPS никто из vSphere не убирал, и ее можно в любой момент включить.
Как пишет знаменитый Дункан, В VMware vSphere 5.x есть 4 состояния памяти для хост-сервера относительно параметра minFree:
High (100% от minFree)
Soft (64% от minFree)
Hard (32% от minFree)
Low (16% от minFree)
Эти состояния определяют срабатывание определенных триггеров (об этом ниже). Например, если minFree для вашей конфигурации сервера равно 10 ГБ, то при переходе в состояние, когда занято 6,4 ГБ (Soft), произойдет определенное действие с точки зрения техник оптимизации памяти.
В то же время, триггеры не срабатывают жестко по этим пороговым значениям, а плавно включаются перед ними и плавно выключаются за ними, чтобы не вызвать резких изменений.
Например, при переходе из состояния High в Soft, большие страницы памяти "разламываются" на обычные, чтобы TPS мог их тут же дедуплицировать. Однако, это может сказаться не лучшим образом на производительности - у хоста и так возникает недостаток памяти, а тут еще его нагружают дедупликацией.
Поэтому в VMware vSphere 6.0 ввели новое состояние Clear (100% от minFree), а состояние High переопределили до значения 400% от minFree. Для чего это сделано? А вот для чего.
При недостатке памяти, хостом ESXi используется техника разламывания больших страниц памяти на обычные страницы, которые затем могут быть дедуплицированы с помощью TPS. Это делается затем, чтобы предотвратить свопирование страниц на диск, что является самым тормозным способом освобождения ресурсов. Так вот эта штука начинает активно работать при наличии свободной памяти в промежутке от High (400%) до Clear (100%), чтобы начать работать на еще не испытывающем острого недостатка ресурсов хосте. Но при этом TPS сразу не запускается.
Давайте посмотрим на таблицу:
Состояние памяти (State)
Пороговое значение (% от minFree)
Эффект при переходе в диапазон
High
400%
Большие страницы разламываются на обычные, но TPS не запускается и ждет следующего цикла прохода дедупликации (по умолчанию 60 минут, минимально настраиваемое в расширенном параметре Mem.ShareScanTime время равно 10 минут)
Clear
100%
Разламывание больших страниц и мгновенный запуск TPS
Soft
64%
Включение TPS и техники Memory Ballooning
Hard
32%
Включение TPS, Memory Compression и свопирования на диск
Low
16%
Memory Compression + свопирование на диск + блокировка использования памяти
Это красивое решение - начать разламывать страницы заранее и не нагружать теряющий свободную память хост.
Но все что касается TPS, актуально только тогда, когда TPS включено. По умолчанию же эта техника выключена, а о том, как включить ее, написано вот тут.
Неадвно мы писали о новых возможностях средства для создания отказоустойчивых кластеров хранилищ VMware Virtual SAN 6.0, где одной из таких возможностей стала возможность конфигурации
All-Flash кластера VSAN (то есть, когда и для кэша, и для данных используются SSD-диски):
Естественно, эта штука работает намного быстрее, чем раньше, поскольку прежде данные можно было размещать только на HDD-дисках. Но насколько это стало быстрее?
Чтобы показать некоторые цифры на практике, компания VMware провела тест на bootstorm - ситуацию, когда множество десктопов загружаются одновременно (например, в начале рабочего дня). Для этого была использована следующая конфигурация:
64 высокопроизводительных узла кластера Virtual SAN исключительно на SSD-дисках (All-Flash).
6401 виртуальных ПК (то есть по 100 каждом хосте), которые включаются одновременно.
Результаты теста оказались весьма позитивными:
За 24 минуты все виртуальные ПК загрузились.
Еще за 16 минут все десктопы получили IP-адреса и были готовы к работе.
В итоге все заняло 40 минут. Для почти шести с половиной тысяч машин это весьма и весьма неплохой результат. Кроме того, отмечается, что команда VMware не использовала никаких специальных настроек или модификаций ПО - тест работал, что называется, "из коробки".
На вебинаре 4 марта 2015 с 14:00 до 15:00 (по МСК) мы расскажем Вам о новинке - Veeam Availability Suite v8 и о многих приятных функциях-дополнениях: Snapshot Hunter, Backup I/O control, делегирование прав пользователям на восстановление, а также о том, как правильно продавать наши новые продукты.
Спикер: Инна Кабатчикова, менеджер по работе с партнерами Veeam в России и СНГ
Для участия в Вебинаре необходимо зарегистрироваться по этой ссылке.
Продолжаем вас знакомить с новыми возможностями платформы виртуализации VMware vSphere 6, которая еще не вышла, но про которую уже все что можно написано. Напомним и наши посты на эту тему:
Теперь на очереди улучшения хранилищ, а именно - возможность работы по протоколу NFS версии 4.1, которую ожидали очень долго (еще со времен ESX 3 хост-серверы работают с хранилищами по протоколу NFS 3). Об этом написал Cormac Hogan, являющийся экспертом в области инфраструктуры хранилищ VMware vSphere.
Итак, начать нужно с того, что при монтировании тома NFS на хосте ESXi важно использовать одну версию протокола, так как если один хост смонтирует том как NFS 3, а другой этот же том как NFS 4.1 - последствия для данных этого тома могут оказаться очень печальными (данные будут повреждены). Это во многом потому, что третья версия протокола использует клиентские блокировки (client side co-operative locking), а 4.1 - блокировки на стороне сервера (server-side locking).
Поэтому самый надежный метод - на хранилище разрешить использовать для тома только одну версию протокола NFS. Ну и соответственно при монтировании папки надо указать правильную версию протокола, везде одинаково:
Ну а теперь возможности при работе vSphere 6.0 с общими ресурсами NFS 4.1:
1. Multipathing и Load-blanacing
Протокол NFS 4.1, помимо улучшений производительности, имеет встроенные возможности доступа по нескольким путям и балансировки нагрузки.
В списке Servers to be added можно плюсиком из поля выше ввести список из нескольких IP-адресов серверов кластера для обеспечения балансировки нагрузки по нескольким путям. Ранее такое было доступно только для протокола iSCSI.
Отмечается, что поддержки pNFS (Parallel NFS) в VMware vSphere 6.0 нет.
2. Поддержка аутентификации Kerberos.
В NFS 3 добавлять папки нужно было только под пользователем root, соответственно на хранилищах нужно было везде включать настройку no_root_squash, что не очень-то безопасно.
В NFS 4.1 можно создать нерутового юзера для папок, а на хостах нужно создать специального пользователя следующей командой:
esxcfg-nas -U -v 4.1
Везде на хостах ESXi, имеющих доступ к одним и тем же NFS-ресурсам должны быть добавлены одинаковые пользователи. Если пользователи разные, то у вас, например, не пройдет vMotion (вывалится с ошибкой).
Чтобы возможность аутентификации Kerberos работала, нужно чтобы все хосты ESXi были введены в домен Active Directory (об этом написано на скриншоте, у восклицательного знака).
3. Работа NFS 4.1 с другими технологиями VMware.
К сожалению, поддержка NFS 4.1 в vSphere 6.0 неполная - такие хранилища не поддерживаются для следующих технологий и продуктов VMware:
Storage DRS
Storage I/O Control
Site Recovery Manager
Virtual Volumes
При этом функции кластеров высокой доступности HA и балансировка нагрузки DRS полностью поддерживается. Ну и отметим тут, что IPv6 поддерживается для доступа по протоколу NFS 4.1, однако только в режиме AUTH_SYS (то есть без аутентификации Kerberos).
Как все из вас знают, скоро выходит обновленная платформа виртуализации VMware vSphere 6, в которой появилась уйма новых возможностей. О многих из них мы уже писали (см, например, нашу последнюю заметку тут). На днях компания VMware сделала еще одну полезную вещь - выложила пошаговые гайды по некоторым компонентам vSphere 6 на сайте VMware Feature Walkthroughs.
Напомним, что про эти гайды мы уже писали тут и тут. Эти штуки позволяют в интерактивном режиме пройти по шагам конфигурации различных продуктов в интерфейсе соответствующего решения. То есть, все так же, как вы будете нажимать в vSphere Web Client:
Какие гайды доступны уже сейчас:
vCenter Server Install - установка компонентов vCenter 6.0. Напомним, что о новых функциях в vCenter мы писали вот тут.
vCenter Server Upgrades - процесс обновления со старых версий vCenter Server, включая 5.x, до версии vCenter 6.0.
vSphere Data Protection – набор пошаговых гайдов, позволяющих пройти весь процесс резервного копирования виртуальных машин. О новых возможностях VDP 6.0 мы также писали вот тут.
vSphere Replication – эти гайды позволят вам самостоятельно настроить репликацию и попробовать повосстанавливать виртуальные машины из реплик.
В ближайшее время ожидаются новые Feature Walkthrough - следите за обновлениями!
Компания VMware еще с выходом VMware vSphere 5.1 объявила о нескольких новых начинаниях в сфере хранения данных виртуальных машин, включая возможность использования распределенного кеш на SSD-накопителях локальных дисков серверов ESXi. Данная технология имела рабочее название vFlash и находилась в стадии Tech Preview, превратившись позднее в полноценную функцию vSphere Flash Read Cache (vFRC) платформы VMware vSphere 5.5. И это вполне рабочий инструмент, который можно использовать в задачах различного уровня.
Вебинар пройдет 25 февраля в 19-00 по московскому времени.
На вебинаре Макс Коломейцев и Крис Эванс расскажут о новейших подходах к организации кэширования данных виртуальных машин на стороне сервера за счет использования Flash-накопителей и оперативной памяти, что вполне может быть альтернативой дорогостоящих All-Flash массивов с точки зрения производительности ввода-вывода.
На вебинаре будут рассмотрены следующие вопросы:
Принцип Парето (80/20) при распределении данных в областях памяти
Как работает кэширование на стороне сервера
Плюсы и минусы такого кэширования
Реализация кэширования в виртуальных средах (как в гостевой ОС, так и в хостовой)
Реализация кэширования в физических средах
Выбор правильного аппаратного обеспечения для хостов
Обзор возможностей программных продуктов различных вендоров
Вебинар, безусловно, получится очень интересным, особенно для тех, кто интересуется темой производительности виртуальной инфраструктуры.
Не так давно мы писали о новых возможностях решения для отказоустойчивости хранилищ VMware Virtual SAN 6.0, которое выйдет вместе с новой версией платформы виртуализации VMware vSphere 6. Одной из таких новых возможностей стал режим All-Flash Configuration, когда хост-сервер ESXi использует только SSD-накопители. При этом быстрые и надежные накопители используются для целей кэширования (cache tier), а устройства попроще - для хранения данных (capacity tier).
Чтобы использовать конфигурацию All-Flash нужно специальным образом пометить диски хост-серверов ESXi для яруса Capacity Tier. Сделать это можно через консоль RVC, либо через интерфейс ESXCLI на каждом из хостов.
Так, например, это делается через RVC:
А вот последовательность команд ESXCLI:
Получается, что на каждом из хостов кластера Virtual SAN администратор должен с помощью CLI-интерфейса обозначать диски, которые будут использоваться для создания яруса хранения виртуальных машин. Жутко неудобно.
Кстати, узнать о том, входит ли конкретный диск в Capacity Tier можно с помощью команды VSAN Disk Query (vdq):
# vdq -q
Так вот, коллеги с punchingclouds.com делают утилиту с GUI, которая позволит назначать дисковым устройствам на хостах ESXi это свойство быстро и удобно, экономя часы времени (представьте, что у вас 64 узла в кластере, на каждом из которых по 10 SSD-дисков, то есть надо назначить 640 дисков!).
Для начала работы надо ввести данные учетной записи VMware vCenter, а также пользователя на хостах VMware ESXi. Минус тут в том, что пароль на всех хостах должен быть одинаковый (но это обещают исправить в следующей версии, сделав загрузку csv-файла с паролями).
Перед тем, как приступить к операциям с дисками, нужно включить SSH на хостах ESXi (настройка на хостах происходит через ESXCLI), делается это кнопкой "Enable SSH". Далее можно сгруппировать похожие устройства по хостам или кластеру, после чего отметить нужные устройства в списке дисков.
Ну и далее нажимаем кнопку "Set Capacity Flash", чтобы назначить диски для хранения виртуальных машин, или "Remove Capacity Flash", чтобы отвязать их от этой роли.
Утилита VMware VSAN All-Flash Configuration Utility скоро будет доступна, следите за обновлениями здесь.
Уважаемые партнеры, компания Citrix приглашает вас принять участие в конференции для партнеров, которая состоится в Москве 17 февраля 2015 года в отеле "Шератон Палас". Таги:
Продолжаем знакомить наших читателей с новыми возможностями платформы виртуализации VMware vSphere 6, релиз которой должен состояться уже совсем скоро. Напомним наши предыдущие посты на эту тему:
Сегодня у нас на очереди VMware vSphere 6 Web Client. Главная новость как раз об отсутствии нового - веб-клиент, по-прежнему, работает на Flash, никакого HTML5 - и это досадно. Поэтому в комментариях и пишут, что новый клиент - это "lipstick on a pig", то есть косметические улучшения без переработки по существу.
Но есть и хорошая новость - VMware уверяет, что новый клиент работает в пять раз быстрее прошлого:
Посмотрим на тесты:
Действительно, в каких-то отдельных случаях работает в 5 и более раз быстрее. Ну ок, давайте пройдемся по новым фичам:
1. Контроль производительности раздела "All Users’ Tasks".
Если раньше эта штука в панели Recent Tasks грузилась очень долго, особенно в инфраструктурах, где сервер vCenter обслуживал много хостов ESXi и пользователей, то теперь она отключена по умолчанию, чтобы не создавать нагрузки. Включить ее можно вручную, в следующем файле на сервере vCenter:
Для vCenter Server Appliance используйте этот конфиг-файл:
/etc/vmware/vsphere-client/webclient.properties
Меняем строчку show.allusers.tasks=false на show.allusers.tasks=true (перезагрузка не требуется).
Теперь все таски пользователей будут показываться в разделе All Users’ Tasks.
2. Множество улучшений производительности.
Производительность была целью номер один в новой версии vSphere 6 Web Client. Были переработаны следующие разделы:
Страницы Login (в 13 раз быстрее!) и Home
Страницы Summary
Страницы Networking
Списки Related Objects
Общая навигация по разделам
Графики производительности (Performance Charts - в 2 раза быстрее)
Контекстные меню действий по правой кнопке (Action Menu - в 4 раза быстрее!)
3. Таски и гибкое размещение панелей.
Теперь список задач удобно размещен внизу:
Сами панельки можно отлеплять и ресайзить:
4. Реорганизованные Action Menu.
Теперь в меню, вызываемых по правой кнопке, все действия размещены на нужных и интуитивно понятных местах, а сами действия не тянут при прорисовке лишних данных, что увеличивает производительность клиента:
5. Новое меню по кнопке Home.
Теперь из него можно попасть в наиболее часто используемые разделы:
6. Возможность убрать предупреждение о включенном SSH прямо из GUI.
Появилась так давно нужная ссылка Suppress Warning:
7. Возможность поместить алармы и таски на правую панель.
Очень удобно:
8. Ну и гора всяких мелочей.
Типа совместимости с прошлой и новой версией Fault Tolerance:
Самое обидное, что Web Client, по-прежнему, несовместим с VMware Update Manager - можно просматривать его задачи, но запускать Remediate нельзя.
Ну и напоследок полезная ссылка про трюки в vSphere Web Client, вам может оказаться очень полезной - http://tiny.cc/webclientwiki.
Какое-то время назад мы писали о файловой системе ReFS в новой версии Windows Server, которая обеспечивает функции виртуализации хранилищ (пространства хранения - Storage Spaces). В документе StarWind рассказывается о том, как решение StarWind Virtual SAN дополняет решение Microsoft Storage Spaces, которое позиционируется как Software-defined storage (SDS). Одних только MS Storage Spaces для виртуализации и отказоустойчивости узлов вам просто-напросто будет недостаточно во многих случаях.
Например, что вам будет доступно только при использовании StarWind:
Поддержка SATA, PCIe Flash, а также соединений 40+GbE.
Кластеризация узлов типа active-active, сконфигурированных из любых комбинаций внутреннего хранилища и JBOD-массивов.
Специализированная файловая система (log structured file system), позволяющая эффективно использовать кэширование и флэш-хранилища.
Поддержка старых хранилищ.
Об остальных интересных и важных моментах вы можете прочитать в документе.
Все из вас знают, что недавно компания VMware анонсировала обновленную версию платформы VMware vSphere 6. Ввиду того, что новых функций уж очень много, мы решили разбить описание новых возможностей продуктов серверной линейки на несколько постов. Напомним последние из них:
Сегодня мы поговорим об анонсированной новой версии VMware vSphere Data Protection 6.0 (VDP) - продукте для резервного копирования виртуальных машин на серверах ESXi. Если ранее пользователям предлагалось одно из двух изданий - встроенное в платформу и vSphere Data Protection Advanced (с расширенными функциями), то теперь осталось только одно. Теперь VDP включено во все издания VMware vSphere, кроме самого базового (Essentials). То есть, пользователи vSphere 6.0 Essentials Plus и более старших изданий получат VDP в комплекте. Кстати, продукт vSphere Data Protection Advanced будет недоступен для заказа с 1 марта.
Напомним, что VDP построен на базе решения для резервного копирования и дедупликации EMC Avamar, которое развертывается как готовый виртуальный модуль (Virtual Appliance). ПО работает без агентов, использует функциональность Changed Block Tracking и может восстанавливать не только машины целиком, но и отдельные файлы из бэкапов через браузер. Шестая версия VDP поддерживает до 8 ТБ дедуплицированных данных бэкапов.
Итак, что нового появилось в VDP:
1. Агенты для Microsoft SQL Server, Exchange и SharePoint.
Напомним, что это намного раньше появилось в Veeam Backup and Replication, а теперь VMware "заимствует" функциональность у Veeam. Эти агенты позволяют создавать консистентные копии виртуальных машин с данными приложениями, а также восстанавливать отдельные объекты приложений из бэкапов (например, базу данных или электронное письмо). Агенты поддерживают такие функции, как SQL Server Failover, кластеры AlwaysOn и Exchange Database Availability Groups.
2. В VDP появилась интеграция с хранилищем EMC Data Domain с использованием ПО Data Domain Boost.
Теперь за обработку бэкапов может отвечать Data Domain, а модуль VDP просто отвечать за передачу данных. Данная функция также есть у Veeam.
3. Возможность репликации данных между модулями VDP.
Данные, передаваемые между модулями VDP дедуплицируются, поэтому в канал передаются только уникальные блоки данных. Это может оказаться необходимым при отбрасывании резервных копий на резервные хранилища через WAN. При этом поддерживаются различные топологии репликации данных виртуальных модулей - 1:1, N:1 и 1:N.
4. Сжатие данных для vSphere Replication.
Теперь если вы используете VMware SRM для репликации данных между площадками и восстановления машин после сбоев, то при передаче данных включается технология сжатия данных при передаче (end-to-end network compression).
Типичный коэффициент сжатия данных - от 1.6:1 до 1.8:1. Например, если раньше машина размером 37.5 ГБ передавалась за 52 минуты, то теперь она ужимается до 20.2 ГБ и передается за 29 минут.
5. Улучшенная репликация.
Теперь неаллоцированные регионы данных не гоняются по каналу репликации, что увеличивает ее скорость. Поддерживаются тонкие диски и устройства Virtual SAN.
6. Верификация резервных копий.
Теперь резервные копии VDP можно восстановить на временное хранилище и запустить машины отключенными от сети, чтобы убедиться, что ОС запускается и приложения работают.
7. Поддержка "подмораживания" файловых систем Linux.
Для Windows-систем уже давно есть quiescence-скрипты, которые подмораживают операции с данными ВМ, для которой происходит резервное копирование. Для Linux это появилось в версии VDP 6.0 (функция отключена по умолчанию).
8. Поддержка Storage vMotion и Storage DRS в целевом хранилище.
Ранее при перемещении реплики средствами Storage vMotion требовалась полная ресинхронизация ВМ, а в версии VDP 6.0 перемещение машин между серверами и хранилищами отслеживается, и процесс полной синхронизации не запускается.
Больше подробностей о возможностях vSphere Data Protection 6.0 можно узнать из вот этого документа.
Как все вы уже знаете, компания Microsoft объявила о скором окончании поддержки такой родной, но уже морально устаревшей операционной системы Windows Server 2003.
Конечно, серверы от этого работать не перестанут, но остаться без технической поддержки и исправлений от вендора неприятно и недопустимо. Именно поэтому многие из вас уже наверняка задумывались о приобретении нового современного железа под свежую Windows 2012 R2. Компания ИТ-ГРАД предлагает пойти еще дальше – почему бы не рассмотреть уход Win2k3 как повод опробовать облачные вычисления?
Не придется ждать поставки железки, вкручивать ее в стойку, регулярно чистить от пыли и через пару лет выкидывать, чтобы освободить место новому оборудованию. Виртуальные серверы ИТ-ГРАД строятся исключительно на лучшей в отрасли виртуализации – VMware. Высокую доступность, защиту данных и техподдержку компания гарантирует.
По услуге IaaS ИТ-ГРАД предлагает в аренду виртуальную инфраструктуру (VI) – гибкое решение для создания собственного парка виртуальных серверов (виртуального дата-центра).
Вы можете взять в аренду один или несколько виртуальных серверов требуемой конфигурации для реализации ваших ИТ-задач. Виртуальные сервера размещены на брендовом оборудовании в надежном дата-центре, что позволяет обеспечить высокую доступность сервисов.
Новые лабораторные работы по VMware vSphere 6 - попробуйте новую версию платформы без установки.
Как почти все из вас знают, компания VMware совсем недавно анонсировала новую версию платформы виртуализации VMware vSphere 6 и другие продукты серверной линейки (наша последняя статья об этом тут). Пока сам продукт недоступен для загрузки в релизной версии, но компания VMware на днях предоставила возможность попробовать его вживую в виде лабораторных работ - VMware Hands-On Labs (HoL).
В рамках лабы вам развертывают виртуальную машину, с которой вы работаете прямо в браузере:
На данный момент доступно 4 новых лабораторных работы:
Эта лаба вводит начинающих в суть темы отказоустойчивых кластеров Virtual SAN и позволяет понять основные преимущества технологии на практике, никакого булшита. Модули лабы:
Virtual SAN Setup and Enable
Virtual SAN with vMotion, Storage vMotion and HA Interoperability
В этой небольшой лабораторной работе вам расскажут про технологию EVO:RAIL, которая представляет собой стандартизованный строительный блок виртуальной инфраструктуры для небольших компаний. С технической точки зрения EVO:RAIL - это двухюнитовый блок, представляющий собой 4-узловую структуру на базе архитектуры "microserver", которая сочетает в себе 4 полноценных микросервера в 2-юнитовой корзине.
Эта лабораторная работа, посвященная возможным вариантам применения VMware Horizon 6, была доступна и ранее. Но теперь в нее добавили модуль о технологии AppVolumes, про которую мы писали вот тут (ранее это называлось CloudVolumes).
Модули лабораторной работы:
Build and Operate the Mobile Secure Workplace
Build and Operate the Call Center Desktop
Build and Operate the Branch Office Desktop
Take a Guided Tour of vCOPS for View
Understanding use cases for Application Remoting
Understanding use cases for Cloud Pod Architecture
Mirage-Controlled View Static Desktops
Guided Tour of AppVolumes
Время на прохождение: 5-8 часов (то есть на всю лабу лучше выделить целый день).
В течение пары недель компания VMware обещает выложить еще несколько лабораторных работ, посвященных VMware vSphere 6 и другим продуктам и технологиям обновленной серверной линейки, о которых мы вам обязательно расскажем. Можно также следить за обновлениями в твиттер-аккаунте VMware HoL.
С радостью представляем вам нашего нового спонсора - компанию ArCycle, являющуюся лидером в разработке специализированного программного обеспечения для резервного копирования и защиты данных виртуальных сред. Не забываем кликать на баннер справа->
ArCycle Software – это частная компания-стартап, в который не так давно проинвестировали такие известные фонды как Almaz Capital и Altair Capital (между прочим, российские), выпускающий ПО для резервного копирования и защиты данных в сегменте малого и среднего бизнеса. При этом решения компании предназначены специально для виртуальных сред.
Основные продукты - ArCycle vmBackup for Hyper-V и ArCycle vmBackup VMware – просты в использовании, надежны и весьма функциональны. Они предназначены не только для опытных пользователей, любой администратор сможет установить их в несколько шагов. Продукты доступны абсолютно бесплатно!
Основные возможности продуктов ArCycle:
Нативная поддержка форматов VMDK и VHD – возможность запуска машины напрямую из резервной копии
Поддержка Microsoft VSS при работе с Hyper-V
Безагентная архитектура
Поддержка технологии Changed Block Tracking для VMware
Репликация виртуальных машин на резервное оборудование
Поддержка инкрементального резервного копирования
Одновременный бэкап нескольких виртуальных машин
Дедупликация данных за счет технологий Windows Server 2012
Возможность создания “песочницы” (Sandbox) для проверки работоспособности резервных копий
Защита данных Microsoft SQL и Exchange
Техническая поддержка и помощь
ArCycle Software Team заботится о своих клиентах и предоставляет профессиональную поддержку и помощь на всех этапах внедрения решений. Опытные технические инженеры помогут разобраться с продуктом и документацией.
ArCycle vmBackup for Hyper-V можно скачать по этой ссылке, а ArCycle vmBackup VMware - по этой.
Несколько дней назад компания Citrix объявила результаты 2014 финансового года, который закончился как и у VMware 31 декабря. Посмотреть отчет Citrix можно вот тут. Вкратце:
Годовая выручка составила 3,14 миллиарда долларов, что на 8% больше, чем в 2013 году.
Чистая прибыль (Net income, GAAP) составила $252 миллиона, что на 26% меньше, чем годом ранее ($340).
Чистая прибыль (non GAAP) составила $565 миллионов, что на 3 миллиона меньше чем годом ранее ($568 млн).
Операционный поток наличности (Operating cash flows) составил 846 миллионов долларов (годом ранее - 928).
В принципе, дела Citrix неплохи - хотя чистая прибыль компании уменьшается, но валовая выручка все же растет. Однако, несмотря на эти показатели, компания Citrix объявила, что в этом году уволит 900 сотрудников - 700 постоянных работников и 200 служащих по срочным контрактам.
В пресс-релизе Mark Templeton, CEO и президент компании, заявил, что он "proud but not satisfied" (горд, но не удовлетворен) успехами компании, потому и пройдут сокращения. В целом, это очевидное следствие того, что VMware наступает на пятки, вступив в открытую конкуренцию (см. VMware View 6), и отбирает хлеб у Citrix, а последней пока нечего предложить из инновационных технологий и продуктов.
Увольнения обойдутся в 45 миллионов долларов, но планируется, что это сэкономит 90-100 миллионов. На конец 2013 года компания Citrix насчитывала 9166 сотрудников, соотвественно, компания уволит где-то одну десятую их часть. Само собой, увольнения затронут и дистрибьюторскую сеть, что не лучшим образом отразится на партнерах.
Пока нельзя говорить, что Citrix начала загнивать, но определенно в этом году ей нужно предложить рынку что-то по-настоящему инновационное, чтобы не дать себя съесть компании VMware. Если в прошлом году инновацией была технология vGPU, то в этом году этого преимущества уже не будет - компании NVIDIA и VMware уже объявили о сотрудничестве, технологии будут доступны уже в 1 квартале этого года (а вот тут - самый свежий пресс-релиз).
Совсем недавно компания VMware анонсировала новую версию платформы виртуализации VMware vSphere 6.0, а также обновленные версии продуктов своей серверной линейки. Напомним наши статьи об этом:
Вместе с vSphere 6.0 было также объявлено и об обновлении до версии 6.0 виртуального модуля VMware vCenter Server Appliance (vCSA), построенного на базе ОС Suse Linux (SLES 11 SP3), в котором соответствующим образом настроены параметры безопасности и необходимые сервисы vCenter.
Кстати, напомним наши статьи о vCenter Server Appliance:
Ну а ниже мы расскажем, что нового появилось в vCSA 6.0.
1. Новая установка.
Теперь для развертывания vCSA понадобится ISO-образ, который можно загрузить прямо из веб-клиента vSphere:
Сам виртуальный модуль развертывается из OVF-пакета, также потребуется установить Client Integration Plug-in.
2. Типы развертывания.
С точки зрения самого vCenter появляется новый сервис Platform Services Controller (PSC), который заменяет существующие сервисы Single Sign-On (напомним, что они уже были переписаны в версии SSO 5.5). Если ранее SSO был частью vSphere и обновлялся только вместе с платформой, то теперь PSC может быть обновлен отдельно (например, если появились новые источники аутентификации или были исправлены ошибки), что очень удобно.
На картинке ниже Platform Services Controller может быть выделен для каждого сервиса vCenter, но также и несколько сервисов vCenter могут использовать один выделенный PSC (этот режим называется External PSC).
Помимо обычной установки из GUI с помощью мастера, vCSA можно развернуть в режиме скриптовой установки. Для этого в папке vCSA-CLI-Installer есть пять различных файлов сценариев, которые подходят под различные варианты развертывания.
4. "Размер" модуля.
При развертывании теперь просят указать "размер" виртуального модуля (один из четырех видов), от которого зависит его конфигурация и максимальное число хостов и ВМ:
5. Поддержка большинства функций vCenter для Windows.
Теперь vCSA больше похож на обычный vCenter Server для Windows. Действительно, посмотрите на таблицу:
Также vCSA поддерживает следующие возможности:
Полная поддержка Hardware version 11.
Встроенная и настроенная СУБД vPostgres (в качестве внешней базы также поддерживается Oracle).
Нативная репликация вместо Microsoft ADAM.
Репликация политик и тэгов в Linked Mode.
Возможность накатывания обновлений (Product & Security) через Patch Portal.
Что не поддерживается:
Не реализована поддержка VMware Update Manager (по прежнему, надо ставить на винду).
Нет поддержки Microsoft SQL Server.
Нет средств миграции SQL Server на vPostgres.
6. Три способа доступа к консоли виртуального модуля.
Теперь получить доступ к vCSA можно тремя способами:
Обычный, через vSphere Web Client.
Доступ через Appliance Shell - в этом режиме мы переходим в консоль по SSH или через интерфейс DCUI при нажатии Alt+F1.
Через DCUI - в DCUI можно получить доступ прямо из Web Client на вкладке Summary (тадо нажать на само изображение консоли).
Прямой доступ по порту через веб-браузер больше не поддерживается.
Вот тут можно посмотреть на весь процесс установки vCSA. Кстати, говорят загружается виртуальный модуль со всеми поднятыми сервисами достаточно долго - около 8 минут.
Как вы знаете, недавно компания VMware сняла эмбарго на освещение новых возможностей платформы виртуализации VMware vSphere 6.0, о которых мы писали вот тут (и тут). На блогах, посвященных технологиям виртуализации, появилось много разных статей о новых возможностях продукта, и мы уже писали о технологии непрерывной доступности VMware Fault Tolerance 6.0.
Сегодня мы хотим рассказать об отказоустойчивых кластерах VMware Virtual SAN 6.0, для которых версия программного обеспечения продвинулась с 1.0 сразу до 6.0 (поэтому пользователи, все же, не должны заблуждаться насчет зрелости продукта - это его вторая версия).
Итак, что нового появилось в VMware Virtual SAN 6.0:
1. Поддержка архитектуры All Flash для создания кластера хранилищ.
Теперь доступны два варианта развертывания VSAN:
Hybrid – Virtual SAN, как и раньше, использует SSD-диски для кэширования, а для хранения ВМ используются обычные HDD-диски. Максимально возможные конфигурации этой архитектуры стали выше (например, стало 64 хоста в кластере).
All Flash – Virtual SAN использует имеющиеся Flash-накопители как для кэширования, так для хранения ВМ.
Отличия между данными архитектурами:
В конфигурации All Flash девайсы, ответственные за кэширование, будут производить только кэширование записи и не будут делать кэширование на чтение (это очевидно почему). В гибридной конфигурации, как и раньше, 30% емкости SSD-кэшей используется для Write Buffer, а 70% - для кэша на чтение.
В целом, утверждается, что решение Virtual SAN теперь готово к полноценной промышленной эксплуатации.
2. Возможность High Density Direct Attached Storage(HDDAS).
Теперь кластеры Virtual SAN удобно использовать в окружениях с блейд-системами. Для них поддерживаются как SDD, так и HDD-устройства, включая flash-хранилища блейд-серверов.
Если раньше блейд-системы не очень подходили для организации кластеров ввиду физических ограничений по локальным хранилищам, то теперь это вполне подходящий вариант использования для корпоративной инфраструктуры. Поддержка устройств будет строго контролироваться и постоянно обновляться в VMware HCL.
3. Новая файловая система и формат On-Disk.
Virtual SAN в VMware vSphere 5.5 использовал модифицированный формат файловой системы VMFS с измененным механизмом блокировок, которая называлась VMFS-L. Теперь же в VSAN 6.0 используется файловая система VSAN FS, специально предназначенная для кластеров хранилищ.
Старый формат VMFS-L поддерживается и в новой версии, но VMware предлагает провести миграцию хранилищ, тем более что это делается без простоя сервисов.
4. Функции Proactive Rebalance.
В Virtual SAN 6.0 появилась возможность ребаланса объектов по виртуальным дискам в случае, если подключается новый узел vSphere или если диски заполнены на 80% и более. Делается это через Ruby Console.
5. VSAN Fault Domains
(группы отказа).
Теперь в VSAN можно определять домены отказа, то есть группы хостов у которых может произойти одновременный сбой (например, отказ питания на стойке), чтобы все их объекты были задублированы в других доменах:
Теперь реплики объектов происходят не на уровне хостов, а на уровне Fault Domains (в данном случае инфраструктура хранения переживет отказ одной стойки):
6. Новые функции для дисков (Serviceability Functions).
Light LED on failures – включение LED-индикатора при отказе.
Turn on disk LED manually - включение LED-индикатора вручную для диска, чтобы его можно было найти на массиве.
Marking a disk as local – если диск не обнаружился как локальный, его можно пометить вручную из GUI.
Marking a disk as SSD - теперь эта опция есть в GUI, нужна если диск автоматически не распознается как SSD.
7. Улучшения сетевого взаимодействия.
Теперь Virtual SAN 6 поддерживает конфигурации на уровне Layer 3. Кроме того, теперь доступна конфигурация с Jumbo Frames. Ну и добавлена поддержка возможностей vDS и Network IO Control (NetIOC).
8. Новый тип виртуального диска VMDK - vsanSparse.
Ранее использовались стандартные Redo-диски, но они не были приспособлены под кэширование и другие функции VSAN FS, поэтому сделали новый тип диска vsanSparse.
9. Улучшенные функции Disk/Disk Group Evacuation.
Возможность эвакуации данных с отдельного диска или группы перед тем, как вы его хотите вывести из эксплуатации физически. Ранее приходилось переводить весь хост в Maintenance Mode, чтобы было очень неудобно при поломке лишь одного диска.
10. Новое представление Resynchronization Dashboard.
Это представление показывает статус объектов, которые по тем или иным причинам находятся в состоянии ресинхронизации. Также показывается примерное время окончании синхронизации:
11. Новые службы 3rd Party File Services.
Сторонние вендоры теперь могут надстраивать свои решения над VMware Virtual SAN. Например, мы писали о таком решении совсем недавно - это NexentaConnect.
12. Полноценная поддержка командлетов PowerCLI.
Ранее интерфейс PowerCLI поддерживался неофициально, теперь же командлеты задокументированы и поддерживаются:
13. Службы мониторинга жизнедеятельности (VSAN Health Services).
Теперь для компонентов Virtual SAN доступна информация об их состоянии:
14. Storage Consumption Models.
Возможность визуализовать использование ресурсов хранения Virtual SAN 6.0 при создании или изменении VM Storage Policy.
О доступности VMware Virtual SAN 6.0 будет объявлено отдельно.
Таги: VMware, Virtual SAN, Update, VSAN, vSphere, Storage, SSD, HA
Как вы знаете, вчера компания VMware сняла эмбарго на освещение новых возможностей платформы виртуализации VMware vSphere 6.0, о которых мы писали вот тут (и тут). На блогах, посвященных технологиям виртуализации, появилось много разных статей о новых возможностях продукта, но нас больше всего заинтересовала технология непрерывной доступности VMware Fault Tolerance.
Ранее никто не воспринимал технологию Fault Tolerance всерьез, поскольку она была доступна только для виртуальных машин с одним vCPU, а такие машины, как правило, не делаются для бизнес-критичных приложений, для которых, собственно, технология Fault Tolerance и создавалась.
Теперь VMware Fault Tolerance в VMware vSphere 6.0 полноценно доступна для виртуальных машин с четырьмя vCPU и 64 ГБ оперативной памяти. И все это поддерживается в производственной среде.
Какие преимущества дает VMware FT в vSphere 6.0:
Непрерывная доступность и полное сохранение данных ВМ в случае отказа хоста ESXi.
При отказе не разрывается TCP-соединение.
Срабатывание Fault Tolerance полностью прозрачно для гостевой системы.
При сбое хоста происходит переключение на новую первичную ВМ, при этом на другом хосте автоматически поднимается новая резервная ВМ.
Что нового в Fault Tolerance 6.0:
Теперь технология непрерывной доступности VMware Fault Tolerance поддерживает виртуальные машины с 4 vCPU и объемом памяти до 64 ГБ.
Fast Check-Pointing - новая технология, предназначенная для поддержания исходного и резервного узла в синхронном состоянии, пришедшая на смену технологии "Record-Replay".
Поддержка технологии горячей миграции как для Primary, так и для Secondary-узла.
Возможность резервного копирования виртуальных машин, защищенных с помощью FT, технологией vStorage APIs for Data Protection. То есть, для таких ВМ теперь работет Veeam Backup and Replication.
FT в vSphere 6.0 поддерживает новые типы дисков, такие как EZT, Thick или Thin Provisioned. Для vSphere 5.5 и более ранних поддерживаются только диски типа Eager Zeroed Thick.
Возможность создания снапшотов виртуальных машин, защищенных FT.
Новая версия FT поддерживает отдельные копии файлов ВМ (.vmx и .vmdk) для каждой машины, чтобы защитить машину не только от сбоев хоста, но и от сбоев хранилища, которые могут произойти одновременно со сбоем хоста. Файлы Primary и Secondary VM могут быть на разных виртуальных хранилищах.
Но по-прежнему, для Fault Tolerance остаются следующие ограничения:
На хост ESXi можно иметь до 4 машин, защищенных технологией FT, при этом всего суммарно может быть защищено до 8 vCPU. Обратите внимание, что эти максимумы применяются суммарно к Primary и Secondary виртуальным машинам, расположенным на этом хосте.
Обязательно потребуется адаптер 10 Gb. Его можно разделять между различными типами трафика средствами NetIOC.
Нельзя использовать горячее добавление CPU или памяти для таких машин (Hot Add).
Если несколько vCPU затронуто технологией FT, то для таких машин не поддерживается Storage vMotion.
Кроме того, технику SMP-FT не поддерживают такие вещи, как vCloud Director, vSphere Replication, VSAN/vVols и vFlash.
Как и раньше, технология VMware HA полностью поддерживается:
Для наглядности есть вот такая табличка, описывающая отличия от предыдущей версии FT:
Надо понимать, что SMP-FT вызовет падение производительности гостевой ОС, по оценкам VMware - это около 10-30% в зависимости от нагрузки.
Ну и помните, что VMware Fault Tolerance на защитит от сбоя на уровне приложения - если он произойдет в основной ВМ, то будет и в резервной ВМ, поскольку машины синхронизированы на уровне исполнения инструкций в процессорах.
Многие из вас знают про решение VMware Virtual SAN, представляющее собой средство для создания отказоустойчивых кластеров хранилищ на базе локальных дисков серверов VMware ESXi. Но это всего лишь средство для хранения и обеспечения отказоустойчивости виртуальных машин, а можно ли все пространство хранения в небольшой компании организовать полностью на базе локальных дисков серверов и управлять ими из одной точки?
Компания Nexenta считает, что можно, предлагая пользователям VMware vSphere и VMware Virtual SAN продукт NexentaConnect, позволяющий создавать NFS и SMB ресурсы для размещения данных виртуальной среды и пользователей на локальных дисках хост-серверов.
NexentaConnect это надстройка над Virtual SAN, которая предоставляет следующие возможности централизованно управляемого хранилища:
Экспорт файловых шар по протоколам NFSv3, NFSv4 и SMB 2.1.
Оптимизированный кэш на чтение, размещенный на стороне хост-серверов.
Техники сжатия данных и дедупликации.
Быстрая настройка прямо из vSphere Web Client.
Совместимость с VMware HA и DRS.
Интеграция с доменом AD (поддержка AAA и Kerberos).
Использование преимуществ Virtual SAN.
NexentaConnect состоит из следующих компонентов:
Плагин для vSphere (как для Web Client, так и для vSphere Client).
NexentaConnect Manager – виртуальный модуль (Virtual Appliance) на базе Ubuntu Linux (64 Bit), предоставляющий сервисы управления решением, такие как мониторинг, планировщик событий, база данных, обслуживание операций и т.п.
NexentaConnect Filers – это компоненты, реализующие, собственно, экспорт сетевых шар. Развертываются автоматически по одному на кластер Virtual SAN в момент создания первой общей папки.
Особенности файлеров:
Отдельная файловая система, составленная из виртуальных дисков VMDK по 2 ТБ (для каждой из политик хранения). 2 ТБ - это для того, чтобы обеспечить поддержку со стороны VMware VSAN. Всего можно объединить до 30 VMDK на файлер.
Размер блока 128 КБ.
Развертывание при первом обращении - масштабирование пространства хранения по требованию.
Развертывание как Thin provisioned, так и в режиме заранее аллоцированного пространства.
Параметры файлеров:
ОС Ubuntu Linux (64 Bit)
4 vCPU
16 GB RAM
Минимум 2 виртуальных диска (до 30)
Объем диска до 2 TB
2 сетевых адаптера
Достоинства продукта:
Сжатие данных алгоритмом LZ4 в реальном времени с небольшой нагрузкой на CPU.
До 500 MB/s на компрессию (на ядро).
До 1.5 GB/s на декомпрессию (на ядро).
Дедупликация нулевых блоков.
Дедупликация данных в режиме Tech Preview (полноценная будет во второй версии).
Требования для развертывания NexentaConnect:
VMware vSphere 5.5 или выше
VMware vCenter Server 5.5 U1 или выше (Windows и Linux)
ESXi 5.5 U1 или выше
Кластер VMware vSphere с установленным Virtual SAN
VMware vSphere Web Client
VMware HA (опционально)
Службы каталога (Directory Services - опционально)
Microsoft Windows Active Directory 2008 R2 или выше
VMware vCenter Server 5.5 U1 или выше
DNS
DHCP
NexentaConnect - это еще один способ построить Scale-Out файловый сервер (то есть масштабирующиеся по требованию службы хранения). Например, это востребованной в инфраструктуре виртуальных ПК предприятия, где требуется хранить не только виртуальные машины, но и данные их пользователей.
Об одном из подобных решений - StarWind Virtual SAN - мы регулярно пишем (сейчас это лучшее решение на рынке). Вот тут, например, мы писали про документ о построении инфраструктуры файловых сервисов на базе StarWind.
Добавим, что решение NexentaConnect доступно не только для инфраструктуры VMware vSphere, но и для Citrix XenServer (пока в бете). Больше подробностей о продукте можно узнать вот на этой странице.
САН-ФРАНЦИСКО — 2 февраля, 2015— NVIDIA и VMware заявили о доступности для компаний полноценного удаленного доступа к приложениям для работы с графикой с помощью решений VMware Horizon 6 и vSphere 6 и технологии NVIDIA GRID vGPU. Таги:
На днях компания VMware выпустила отчеты о финансовых итогах четвертого квартала 2014 года, а также годовой отчет за весь 2014 год.
Давайте посмотрим на цифры четвертого квартала 2014 года:
Выручкасоставила1,7 миллиардадолларов, чтона 15% больше, чем в четвертом квартале 2013 года.
Выручка от лиценизий составила 777 миллионов долларов, что на 13% больше, чем в четвертом квартале 2013.
Операционная прибыль(GAAP) во втором квартале составил $344 миллиона, чтона 8% меньшеаналогичного квартала годом раньше.
Операционная прибыль(non-GAAP) составила составила $567 миллионов, что на7% больше, чем годом ранее в четвертом квартале.
Чистая прибыль(Net income) составила $326 миллионов, что на 2% меньше чем годом ранее ($335 млн).
Годовой отчет за 2014 год:
Выручкасоставила6,04 миллиардадолларов, чтона 16% больше, чем в 2013 году.
Операционная прибыль(GAAP) составил $1,03 миллиарда, чтона 6% меньше, чем годом ранее.
Операционная прибыль(non-GAAP) составила составила $1,88 миллиарда, что на6% больше, чем годом ранее в четвертом квартале.
Чистая прибыль(Net income) составила $886 миллионов, что на 13% меньше чем годом ранее ($1,01 млрд).
Операционный поток наличности (Operating cash flows) составил 2,18 миллиарда долларов.
Кэш, его эквиваленты и краткосрочные инвестиции в сумме составляют$7,08 миллиарда.
В принципе, весьма неплохо. Некоторое падение операционной и чистой прибыли объясняется покупкой VMware компании AirWatch, которая была завершена в первом квартале 2014 года.
Взрывной рост компании прекратился, но VMware чувствует себя стабильно и уверено и вполне может позволить себе поглотить еще с десяток небольших компаний, поэтому в этом году ждем новых интересных сделок и пополнения продуктовой линейки.
Не так давно мы писали про облачный сервис vCloud Air Disaster Recovery, который доступен пользователям публичного облака от VMware (тогда оно еще называлось vCloud Hybrid Service).
DR-решение доступно как услуга (RaaS, Recovery-as-a-Servie) для конечных заказчиков, которые могут делать бэкап своего частного облака в инфраструктуру vCloud Air. При этом для заказа услуги (она доступна на 1,12,24 или 36 месяцев) не требуется быть клиентом vCloud и иметь там свою виртуальную инфраструктуру.
Это очень удобно для тех заказчиков, которые не хотят вкладывать сразу большие деньги в построение полноценной резервной площадки, а пока просто хотят протестировать сервисы катастрофоустойчивости VMware. Ведь в любой момент можно отказаться от использования vCloud Air, когда будут введены в эксплуатацию собственные резервные мощности.
На днях VMware добавила весьма значимые функции в этот сервис, а именно:
Native failback support – возможность обратной репликации данных из облака vCloud Air в инфраструктуру заказчика. Помимо этого поддерживается и офлайновый трансфер данных на физических дисках (для крупных окружений).
Multiple recovery points – возможность иметь несколько копий во времени для реплицируемых ВМ, что позволяет откатить отдельные ВМ или весь датацентр к моменту, когда данные еще не были повреждены.
Self-service automation – использование возможностей vRealize Orchestrator через плагин для vCloud Air Disaster Recovery, чтобы самостоятельно спроектировать и внедрить сценарии восстановления.
Ну и не забывайте, что для новых заказчиков vCloud Air OnDemand компания VMware дарит 300 долларов на пользование услугами сервиса.
Осенью мы писали о том, что компания VMware планирует отключить технологию Transparent Page Sharing (TPS) в новых релизах платформы виртуализации VMware vSphere. Напомним, что TPS - это механизм поиска и удаления дубликатов страниц памяти в целях экономии физического пространства RAM (вместо самой дублирующейся страницы хранится только ссылка на нее).
Технологию TPS было решено прекратить использовать по двум причинам:
Использование в современных ОС больших страниц памяти (large memory pages) размером в 2 МБ делает намного менее вероятным появление дубликатов.
Использование одной копии страницы памяти несколькими ВМ создает потенциальные проблемы безопасности.
На данный момент статус отключенности TPS по умолчанию на хостах VMware ESXi таков:
В ESXi 5.5 U2d, запланированном на первый квартал 2015 года, TPS будет отключен.
В ESXi 5.1 U3, выпущенном 4 декабря 2014 года, TPS уже отключен.
В ESXi 5.0 U3d, запланированном на первый квартал 2015 года, TPS будет отключен.
Однако не стоит сбрасывать TPS со счетов - возможно, если вы используете старые ОС (Windows 2003) и инфраструктуру VDI на базе старых клиентских ОС, TPS сможет сэкономить вам какое-то количество памяти (если безопасность TPS вас не особенно заботит). Ну и напомним, что TPS отключена только для межмашинного взаимодействия и продолжает работать для внутримашинного.
Для этого в VMware сделали скрипт Host Memory Assessment Tool.ps1, который показывает количество памяти на хостах, которую можно сэкономить с помощью TPS.
Вот что он делает:
Соединяется с vCenter и определяет хосты ESXi
Позволяет включить SSH на хостах
Генерирует отчет об обследовании на экономию по TPS
Можно экспортировать результаты в CSV
Можно снова включить SSH, если нужно
Пока скрипт позволяет указать только одну пару логин-пароль на хостах ESXi, но надеемся это будет исправлено в следующих версиях.
Здесь вот какие значения в колонках:
Total Host Memory – объем физической памяти хоста (доступной vmkernel).
Host Mem Saved via TPS – объем памяти, которая сэкономлена TPS.
Host Mem Saved via TPS Zero Pages – объем памяти, которая экономится на нулевых страницах. Фактически такая экономия не актуальна для большинства случаев, так как сэкономленные нули означают, что недостатка ресурсов не наблюдается.
Potential Host Mem Savings Lost – а вот эта экономия уже на реально используемых страницах. Объем, указанный тут, показывает сколько можно потерять, отключив TPS на хосте.
Host Free Mem – объем свободной оперативной памяти (по данным vmkernel). Если свободной памяти меньше, чем значение в предыдущей колонке, то при отключении TPS будет своппинг.
Вот такая штука, можно проводить эксперименты (особенно полезно это будет для крупной инфраструктуры). Скрипт безопасен для памяти хостов, так как использует режим доступа к памяти только для чтения.
После запуска скрипта вам может потребоваться отключить или включить Transparent Page Sharing на хосте ESXi. В этом случае вам пригодится KB 2097593.
Не все из вас знают, что у компании Teradici, чей протокол PCoIP используется в инфраструктуре виртуальных ПК VMware Horizon View, есть интересный и полезный калькулятор для расчета необходимых параметров канала при доступе к виртуальным ПК - Teradici PCoIP bandwidth calculator. Напомним, что мы писали о нем тут.
Калькулятор не только отвечает на основной вопрос VDI - сколько нужно полосы пропускания для доступа пользователей инфраструктуры к своим десктопам с учетом используемой нагрузки - но и показывает некоторые другие параметры.
Как можно увидеть на картинках, требуемая полоса пропускания зависит от типа рабочей нагрузки в виртуальном ПК, параметров качества отображения и доступных возможностей, предоставляемых в рамках сессии.
Также интересна утилита Teradici Statistics Viewer, которая позволяет просматривать в графическом интерфейсе параметры сессий, которые были получены с виртуальных ПК инфраструктуры VDI. Кстати для визуализации параметров сессий можно просто перенести через Drag&Drop в окно логи виртуального ПК.
Вот какие параметры можно вывести с помощью этой утилиты:
bytes recieved
bytes sent
rx bandwidth
tx bandwidth
packets recieved
packets sent
rx packets lost
session duration
tx packets lost
imagaing quality
imaging decoder capablity
imaging frame
trip latency
tx packet loss
tx packet loss
В интерфейсе доступны следующие операции с графиками:
Zoom In/Out
Hide/Show Series
Установить максимальное значение оси Y
Развернуть-свернуть графики
Скачать Teradici PCoIP Statistics Viewer можно по этой ссылке.
Кроме того, как оказалось, у компании Teradici есть еще ряд приложений и утилит для настройки и эксплуатации протокола PCoIP, которые приведены на этой странице. Например, интересно почитать об утилите Teradici SNMP PCoIP Monitor.
Вчера компания Citrix объявила о выпуске обновленной версии своей серверной платформы виртуализации Citrix XenServer 6.5 (кодовое название Creedence). Напомним, что о новых возможностях этой версии мы писали еще в июле прошлого года (тогда еще предполагалось, что выйдет сразу версия 7.0).
Итак, новые возможности XenServer 6.5 (полный список тут, а Release Notes - вот тут):
64-битный домен dom0 (то есть, теперь все 64-битное)
Новая версия ядра Linux 3.10
Гипервизор Xen версии 4.4
Функции Workload balancing (WLB), предоставляемые отдельным виртуальным модулем WLB appliance
Обновленный виртуальный коммутатор Open virtual switch 2.1.x
На днях компания Red Hat совместно с IBM анонсировала платформу серверной виртуализации Red Hat Enterprise Virtualization (RHEV) для серверов IBM Power Systems (в частности, на базе процессоров POWER8).
Годом ранее компания IBM объявила об инвестициях в размере 1 миллиарда долларов в Linux-системы, на базе которых в том числе работают высокопроизводительные платформы Power Systems. Похоже, эти инвестиции начинают осваивать (в хорошем смысле).
Технология RHEV включает в себя гипервизор (напомним, что это KVM), работающий как на x86 платформе, так и на платформе Power, а также сервер управления Red Hat Enterprise Virtualization management server (на базе обычного x86-сервера). Обеими этими инфраструктурами можно будет управлять из единой консоли.
Обновленное решение Red Hat Enterprise Virtualization для архитектуры POWER8 будет предоставлять следующие возможности:
High Availability – при отказе одного из хостов его виртуальные машины будут перезапущены на другом хосте кластера.
Live Migration and Storage Live Migration – Red Hat Enterprise Virtualization позволит перемещать виртуальные машины с одного хоста на другой, а также между хранилищами без простоя сервисов.
Intelligent Load Balancing – балансировка нагрузки на хосты и хранилища за счет интеллектуального переноса виртуальных машин в автоматическом или ручном режиме.
Centralized Template Management – Red Hat Enterprise Virtualization предоставляет возможность управления шаблонами виртуальных машин, из которых можно развернуть новый сервис несколькими кликами мыши.
Self-Service Portal for Quick Provisioning – пользователи портала самообслуживания могут самостоятельно развернуть новую виртуальную машину по запросу, а администратор платформы сможет контролировать жизненный цикл этих ВМ.
Ранее, в декабре 2014 года, компания Red Hat анонсировала бета-версию своей ОС Red Hat Enterprise Linux 7.1, у которой есть версия для процессоров POWER, работающих в режиме little endian. Более подробно об этом можно прочитать вот тут, тут и тут.